我用过了TensorFlow、PyTorch等好几种框架,为什么还是吃不透深度学习算法?
数据、算力和算法是人工智能的三大基石,而我们唯一可控、可学且能够学会的就是算法。本文选自《实战深度学习算法:零起点通关神经网络模型(基于Python和NumPy实现)》一书,陪你零起点通关神经网络模型!
以深度学习为代表的人工智能技术深刻地影响着我们的生活方式,从图像识别、语音识别、机器翻译到智能医诊、自动驾驶、智能风控 ······ 在多个应用领域不断地刷新纪录。
深度学习近年来之所以能取得颠覆性突破,一方面,归功于“数字化”对社会的渗透使得大量数据得以积累;另一方面,受益于单位成本下硬件算力的提升,推动了复杂模型的商用;然而最根本的,还是来自深度学习背后基础算法的巧思妙想与厚积薄发。
只有深入了解深度学习的算法原理,才能更灵活、高效地运用于实践当中。现有的深度学习框架将算法使用简化为“调包”和“调参”。降低了使用成本,然而却没有降低学习成本。
对于算法,最有效的学习方式是理解原理并动手实践。从原始论文可以查阅算法的详解和推导,却不容易复现结果。主流的深度学习框架多采用计算图模型,不容易调试或观察,对希望深入了解算法的初学者并不友好。致力于用深度学习方法创造社会价值的从业者,也需要看清底层算法的脉络,来做模型的定制、优化和改进。
(扫码获取本书详情)
理解深度学习主要的核心模型 灵活复现重要论文、验证新方法 自由替换模型中的底层算法,取得一手实验结果 针对自己工作的特定场景,对算法做定制和优化,实现工程应用
第 1章 基础分类模型
感知机函数
损失函数
感知机学习算法
环境搭建
数据准备
实现感知机算法
参考文献
数据集
图像数据和图向量
信息熵
交叉熵
数据准备
实现第一个神经网络
实现 MINIST手写数字识别
参考文献 38
第 3章 多层全连接神经网络
欠拟合与过拟合
正则化
正则化的效果
数据准备
实现多层全连接神经网络
在数据集上验证模型
参考文献 54
第 4章 卷积神经网络(CNN)
卷积层
池化层
全连接层和 Softmax处理
全连接层
池化层反向传播
卷积层反向传播
数据准备
卷积神经网络模型的原始实现
第 5章 卷积神经网络——算法提速和优化
边缘填充提速
池化层提速
卷积层处理
池化层反向传播
卷积层反向传播
动量方法
NAG方法
Adagrad方法
RMSprop方法
AdaDelta方法
Adam方法
各种优化方法的比较
参考文献 103
第 6章 批量规范化(Batch Normalization)
数据集偏移
输入分布偏移
内部偏移
训练时的前向计算
规范化与标准化变量
推理预测时的前向计算
全连接层和卷积层的批量规范化处理
梯度传递问题
饱和非线性激活问题
正则化效果
训练时的前向传播
反向传播
推理预测
模型结构
卷积层批量规范化的实现
引入批量规范化后的递减学习率
参考文献 123
第 7章 循环神经网络(Vanilla RNN)
单层 RNN
双向 RNN
多层 RNN
误差的反向传播
激活函数的导函数和参数梯度
数据准备
模型搭建
验证结果
参考文献 147
第 8章 长短时记忆网络(LSTM)——指数分析
误差反向传播
激活函数的导函数和参数梯度
实现 LSTM单时间步的前向计算
实现 LSTM多层多时间步的前向计算
实现 LSTM单时间步的反向传播
实现 LSTM多层多时间步的反向传播
数据准备
模型构建
分析结果
参考文献 169
第 9章 双向门控循环单元(BiGRU)——情感分析
单时间步的前向计算
实现单时间步的反向传播
数据预处理
构建情感分析模型
Dropout前向传播算法
Dropout反向传播算法
Dropout Rate的选择
参考文献 189
附录 A向量和矩阵运算
附录 B导数和微分
附录 C向量和矩阵导数
附录 D概率论和数理统计
索引
博文视点学院1元好课推荐
现在扫描下方二维码,仅需1元!《知识图谱:概念与技术》一书作者之一、复旦大学大数据学院与大数据研究院副院长阳德青老师,将为你带来一堂入门课。
(扫码报名)
假期不停学,弯道好超车
热文推荐
▼ 点击阅读原文,获取本书详情!